Процесът на преобразуване на данни от една форма в друга е известен като кодиране. Използва се за трансформиране на данните, така че данните да могат да се поддържат и използват от различни системи. Кодирането работи подобно на преобразуването на температурата от Целзий във Фаренхайт, тъй като тя просто се преобразува в друга форма, но първоначалната стойност винаги остава същата. Кодирането се използва главно в две области:
Забележка: Кодирането е различно от криптирането, тъй като основната му цел не е да скрие данните, а да ги преобразува във формат, така че да може да се използва правилно.
В тази тема ще обсъдим различните видове техники за кодиране, които се използват в компютрите.
Тип техника на кодиране
Кодиране на знаци
Кодирането на знаци кодира знаците в байтове . Той информира компютрите как да интерпретират нулата и единиците в реални знаци, числа и символи. Компютърът разбира само двоични данни; следователно е необходимо тези знаци да се преобразуват в цифрови кодове. За да се постигне това, всеки знак се преобразува в двоичен код и за това текстовите документи се записват с типове кодиране. Може да се направи чрез сдвояване на числа със знаци. Ако не приложим кодиране на знаци, нашият уебсайт няма да показва знаците и текста в правилен формат. Следователно това ще намали четливостта и машината няма да може да обработва данните правилно. Освен това, кодирането на знаци гарантира, че всеки знак има правилно представяне в компютърен или двоичен формат.
Има различни видове техники за кодиране на символи, които са дадени по-долу:
HTML кодиране
HTML кодирането се използва за показване на HTML страница в правилен формат. С кодирането уеб браузърът разбира кой набор от знаци да се използва.
В HTML има различни знаци, използвани в HTML Markup като . За да кодираме тези знаци като съдържание, трябва да използваме кодиране.
URL кодиране
Кодирането на URL (Uniform resource locator) се използва за конвертирате символи в такъв формат, че да могат да се предават по интернет . Известно е още като процентно кодиране. URL кодирането се извършва за изпращане на URL към интернет с помощта на ASCII символен набор. Знаците, които не са ASCII, се заменят с %, последван от шестнадесетичните цифри.
UNICODE кодиране
Unicode е стандарт за кодиране за универсален набор от знаци. Той позволява кодиране, представяне и обработка на текста, представен на повечето езици или системи за писане, които са достъпни по целия свят. Той предоставя кодова точка или номер за всеки знак на всеки поддържан език. Той може да представлява приблизително всички възможни знаци, възможни на всички езици. Определена последователност от битове е известна като кодираща единица.
Стандартът UNICODE може да използва 8, 16 или 32 бита за представяне на знаците.
Стандартът Unicode дефинира Unicode Transformation Format (UTF) за кодиране на кодовите точки.
Стандартът за кодиране UNICODE има следните UTF схеми:
UTF8 се определя от стандарта UNICODE, който е кодиране на знаци с променлива ширина, използвано в електронните комуникации. UTF-8 може да кодира всичките 1 112 064 кодови точки за валидни символи в Unicode, като използва една до четири еднобайтови (8-битови) кодови единици.
Кодирането UTF16 представлява кодовите точки на символа, използвайки едно от две 16-битови цели числа.
Кодирането UTF32 представя всяка кодова точка като 32-битови цели числа.
Base64 кодиране
Кодирането Base64 се използва за кодиране на двоични данни в еквивалентни ASCII символи. Кодирането Base64 се използва в системата за поща, тъй като пощенските системи като SMTP не могат да работят с двоични данни, защото приемат само ASCII текстови данни. Използва се и при просто HTTP удостоверяване за кодиране на идентификационните данни. Освен това, той се използва и за прехвърляне на двоичните данни в бисквитки и други параметри, за да направят данните нечетими, за да се предотврати подправяне. Ако изображение или друг файл се прехвърли без кодиране Base64, той ще се повреди, тъй като пощенската система не може да се справи с двоични данни.
Base64 представя данните в блокове от 3 байта, където всеки байт съдържа 8 бита; следователно представлява 24 бита. Тези 24 бита са разделени на четири групи от по 6 бита. Всяка от тези групи или части се преобразува в еквивалентна стойност Base64.
ASCII кодиране
Американски стандартен код за обмен на информация (ASCII) е вид кодиране на знаци. Това беше първият стандарт за кодиране на знаци, издаден през 1963 г.
Този ASCII код се използва за представяне на английски символи като числа, където всяка буква е присвоена с номер от 0 до 127. Повечето съвременни схеми за кодиране на знаци са базирани на ASCII, въпреки че поддържат много допълнителни знаци. Това е еднобайтово кодиране, използващо само долните 7 бита. В ASCII файл всеки азбучен, цифров или специален знак е представен със 7-битово двоично число. Всеки знак от клавиатурата има еквивалентна ASCII стойност.
Кодиране на изображения и аудио и видео
Извършва се кодиране на изображения и аудио и видео, за да се спести място за съхранение. Мултимедиен файл като изображение, аудио и видео са кодирани, за да ги запазят в по-ефективен и компресиран формат.
Тези кодирани файлове съдържат едно и също съдържание с обикновено подобно качество, но в компресиран размер, така че да могат да бъдат запазени на по-малко място, лесно да се прехвърлят по пощата или да се изтеглят в системата.
Можем да го разберем като. WAV аудио файлът се преобразува в .MP3 файл, за да се намали размерът с 1/10thдо първоначалния си размер.