W jaki sposób znaki są reprezentowane w komputerze?
Tak jak w temacie, w jaki sposób w komputerze są reprezentowane znaki? Jak to przebiega, jak to wygląda od strony technicznej? Jak są te znaki reprezentowane?
8 Odpowiedzi
Wszelkie informacje przetwarzane przez nasze komputery są ciągam bitów. Czyli każdy wprowadzany z klawiatury znak (np. T, e, 4, *, ?), oraz każda liczba (np. 12; 5,(3); -2), a także dźwięk czy obraz muszą być zapisane jako sekwencje 0-1 (sekwencje zero jedynkowe).
W zależności od typu znaku, przyjmuje się różne umowy dotyczące ich kodowania, czyli zamiany na binarną reprezentację.
Znaki zapisywany są jako sekwencje zero jedynkowe, jako bity, czyli to połączenie 0 i 1. Wszystko ostatecznie ma postać binarną.
Są różne sposoby reprezentacji znaków na komputerze.
ASCII (ang. American Standard Code for Information Interchange)- 7-bitowy kod przyporządkowujący liczby
z zakresu 0-127:
- literom alfabetu angielskiego (np. 65-90 dla dużych liter, czyli 010b bbbb),
- cyfrom (48-57 czyli 0011 bbbb),
- znakom przestankowym
- a także innym symbolom i poleceniom sterującym
(w sumie 95 znaków widocznych i 33 niewidoczne).
Rozszerzone kody ASCII – dzięki zagospodarowaniu ósmego bitu posiadają 256 pozycji (pierwsze 128 tak jak
ASCII, następne to znaki narodowe i inne symbole).
Problemem są różne strony kodowe dla różnych organizacji i
krajów.
Międzynarodowa organizacja normalizacyjna ISO stworzyła (w porozumieniu z zainteresowanymi) więcej stron kodowych dla np. krajów Europy Wschodniej (np. Ukraina, Bułgaria), Rosji (cyrylica), krajów Dalekiego Wschodu (Korea, Japonia).
I te normy są znane powszechnie pod nazwą ISO-8859-x, gdzie x jest cyfrą od 1 do 10. Europa Wschodnia, łącznie z Polską dostała numer 2. Niestety Bill G. wprowadził strony kodowe ANSI, niezgodne z ISO.
Kody rodziny EBCDIC (ang. Extended Binary Coded Decimal Interchange Code) – EBCDIC to rozszerzony zapisywany dziesiętnie kod wymiany informacji, używany w systemach firmy IBM.
UNICODE – jest uniwersalnym standardem kodowania znaków, dzięki któremu można wyświetlać znaki charakterystyczne dla różnych języków. Używa opisu literowego i liczbowej wartości dla każdego kodowanego
znaku. Wartość 16 bitowa jest definiowana jako liczba w systemie szesnastkowym wraz z przedrostkiem U ( np.
U+0041 przedstawia A). Unicode jest zgodny z ASCII. Cechy Unicode:
- Jednoznaczność. Jeden kod odpowiada jednemu znakowi i odwrotnie.
- Uniwersalność. Obejmuje wszystkie powszechnie używane języki oraz symbole.
- Identyfikacja znaku a nie wygląd (styl, wielkość, język są nieistotne).
- Efektywność. Identyfikacja znaku nie zależy od sekwencji sterującej czy znaków następujących bądź
poprzedzających. - Logiczny porządek (porządek, w jakim są pisane znaki).
- Własności znaków (np. kolejność alfabetyczna) nie zależą od położenia w tabeli kodów ale są określone
w tablicy własności.
Znaki na komputerze są reprezentowane na różne sposoby, jest to bardzo rozległy temat. W wypowiedzi powyżej udzielono dość wyczerpujących informacji, ale nie są one kompletne, najlepiej jest sobie sprawdzić w literaturze informatycznej, szczególnie jeśli masz do przygotowania jakiś referat albo coś w tym stylu.
Jest wiele metod reprezentowania znaków na komputerze. Znaki na komputerze mogą być reprezentowane jako UNICODE, albo rozszerzone kody ASCII.
Znaki na komputerze są reprezentowane przez ambasadora państwa o nazwie Znakowo. Ma on immunitet i jeździ limuzyną. A studenci informatyki muszą się o nim uczyć.
Dzięki wielkie za wszystkie informacje w tym wątku, bardzo mi pomogły.
Znaki w komputerze są reprezentowane w różny sposób.
Najpopularniejszym jest kod ASCII, 7-bitowy kod przypisujący numery do liter alfabetu angielskiego, cyfr, znaków interpunkcyjnych i innych symboli.
Istnieją też rozszerzone kody ASCII z 256 pozycjami, obejmujące narodowe znaki i symbole.
ISO stworzyło dodatkowe strony kodowania dla różnych krajów i regionów, znane jako ISO-8859-x.
EBCDIC to kod używany przez systemy IBM.
UNICODE to uniwersalny standard kodowania znaków, który może wyświetlać znaki z różnych języków. UNICODE używa 16-bitowej wartości reprezentującej liczbę w systemie szesnastkowym z prefiksem U. Jest zgodny z ASCII.
Komputery używają systemu binarnego, który wykorzystuje tylko cyfry 0 i 1, do reprezentowania dowolnej liczby dziesiętnej.
W systemie dziesiętnym używane są potęgi 10, a w systemie binarnym potęgi 2. Obie te systemy są pozycyjnymi systemami liczbowymi, gdzie wartość cyfry jest określana przez jej pozycję.
Oprócz liczb, znaki, takie jak litery i znaki interpunkcyjne, mogą być również reprezentowane w formie binarnej. Najbardziej powszechnym systemem kodowania liter i symboli jest ASCII, gdzie każdy znak ma numeryczny odpowiednik w zakresie <0, 25>.