Статический алгоритм Хаффмана

 

Министерство образования и науки Российской Федерации

Федеральное государственное бюджетное образовательное учреждение

высшего профессионального образования

«Ивановский государственный энергетический университет

имени В.И. Ленина»

Кафедра ПОКС








Курсовая работа

по дисциплине: Структуры и алгоритмы обработки данных

«Статический алгоритм Хаффмана»





Выполнили: студенты гр. III-42

Сенченко А.А.

Петров Т.С.

Проверил: д.т.н. Пантелеев Е.Р.





Иваново2012


Оглавление


Постановка задачи

Исходные данные

Описание алгоритма

Алгоритм построения дерева Хаффмана

Детали реализации

Результат работы программы

Используемые АТД

Структура программы

Оценка эффективности

Вывод

Список литературы



Постановка задачи


Написать кодер и декодер с использованием статического алгоритма Хаффмана. Исследовать эффективность (степень сжатия) в зависимости от типа и размера сжимаемых файлов.


Исходные данные


Для демонстрации работы алгоритма мы использовали по 2 файла 3 типов разных размеров: doc, bmp, jpeg. После компрессии появляется файл в том же каталоге с именем дополненным суффиксом .hfm в конце. После декомпрессии программа создаёт файл, убирая расширение .hfmиз конца имени файла.

Вся программа представляет собой Windows Forms приложение на языке C#.


Описание алгоритма


Метод Хаффмана является исторически первым методом группы частотных алгоритмов. Оригинальная работа была опубликована в 1952 г. под названием "A Method for The Construction of Minimum Redundancy Codes".

В основе метода лежит модель кодирования в виде бинарного дерева с минимальной длиной взвешенных путей.

Бинарным деревом называется ориентированное дерево, полу степень исхода любой из вершин которого не превышает двух.

Вершина бинарного дерева, полу степень захода которой равна нулю, называется корнем. Для остальных вершин дерева полу степень захода равна единице.

Вершина m-дерева, полустепень исхода которой равна нулю, называется листом. Для остальных вершин полу степень исхода составляет 1 или 2.

Пусть T - бинарное дерево, А = (0,1) - двоичный алфавит, и каждому ребру Т- дерева приписана одна из букв алфавита таким образом, что все ребра, исходящие из одной вершины, помечены различными буквами. Тогда любому листу T - дерева можно приписать уникальное кодовое слово, образованное из букв, которыми помечены ребра, встречающиеся при движении от корня к соответствующему листу.

Особенность описанного способа кодирования в том, что полученные коды являются префиксными. Очевидно, что стоимость хранения информации, закодированной при помощи T - дерева, равна сумме длин путей из корня к каждому листу дерева, взвешенных частотой соответствующего кодового слова, или длиной взвешенных путей: ?wili, где wi- частота кодового слова длины li во входном потоке.

Рассмотрим в качестве примера кодировку символов в стандарте ASCII. Здесь каждый символ представляет собой кодовое слово фиксированной (8 бит) длины, поэтому стоимость хранения определится выражением 8?wi = 8W, где W - количество кодовых слов во входном потоке. Поэтому стоимость хранения 39 кодовых слов в кодировке ASCII равна 312, независимо от относительной частоты отдельных символов в этом потоке.

Алгоритм Хаффмана позволяет уменьшить стоимость хранения потока кодовых слов путём такого подбора длин кодовых слов, который минимизирует длину взвешенных путей. Будем называть дерево с минимальной длиной взвешенных путей деревом Хаффмана.

Классический алгоритм Хаффмана на входе получает таблицу частот символов во входном потоке.



Алгоритм построения дерева Хаффмана


  1. Символы входного алфавита образуют список свободных узлов. Каждый имеет вес, который может быть равен либо вероятности, либо количеству вхождений символа в ожидаемое сообщение.
  2. Выбираются два свободных узла дерева с наименьшими весами.
  3. Создаётся их родитель с весом, равным их суммарному весу.
  4. Родитель добавляется в список свободных узлов, а двое его детей удаляются из этого списка.
  5. Одной дуге, выходящей из родителя, ставится в соответствие бит 1, другой - бит 0.
  6. Шаги, начиная со второго, повторяются до тех пор, пока в списке свободных узлов не останется только один свободный узел. Он и будет считаться корнем дерева.

Например, у нас есть следующая таблица частот:


7 6 6 5

А Б В Г Д


На первом шаге из листьев дерева выбираются два с наименьшими весами - Г и Д. Они присоединяются к новому узлу-родителю, вес которого устанавливается 5 + 6 = 11. Затем узлы Г и Д удаляются из списка свободных. Узел Г соответствует ветви 0 родителя, узел Д - ветви 1.

На следующем шаге то же происходит с узлами Б и В, так как теперь эта пара имеет самый меньший вес в дереве. Создаётся новый узел с весом 13, а узлы Б и В удаляются из списка свободных. После всего этого дерево кодирования выглядит так, как показано на рис. 1.



Рис. 1. Дерево кодирования Хаффмана после второго шага


На следующем шаге «наилегчайшей» парой оказываются узлы Б/В и Г/Д. Для них ещё раз создаётся родитель, теперь уже с весом 24. Узел Б/В соответствует ветви 0 родителя, Г/Д-ветви 1.

На последнем шаге в списке свободных осталось только два узла - это узел А и узел Б (Б/В)/(Г/Д). В очередной раз создаётся родитель с весом 39 и бывшие свободными узлы присоединяются к разным его ветвям.

Поскольку свободным остался только один узел, то алгоритм построения дерева кодирования Хаффмана завершается. Н-дерево представлено на рис. 2.


Рис. 2. Окончательное дерево кодирования Хаффмана


Каждый символ, входящий в сообщение, определяется как конкатенация нулей и единиц, сопоставленных рёбрам дерева Хаффмана, на пути от корня к соответствующему листу.

Для данной таблицы символов коды Хаффмана будут выглядеть следующим образом:


А 0

Б 100

В 101

Г 110

Д 111


Наиболее частый символ сообщения А закодирован наименьшим количеством битов, а наиболее редкий символ Д - наибольшим. Стоимость хранения кодированного потока, определенная как сумма длин взвешенных путей, определится выражением: 15*1+7*3+6*3+6*3+5*3 =87, что существенно меньше стоимости хранения входного потока (312).

Поскольку ни один из полученных кодов не является префиксом другого, они могут быть однозначно декодированы при чтении их из потока. Алгоритм декодирования предполагает просмотр потока битов и синхронное перемещение от корня вниз по дереву Хаффмана в соответствии со считанным значением до тех пор, пока не будет достигнут лист, то есть декодировано очередное кодовое слово, после чего распознавание следующего слова вновь начинается с вершины дерева.

Классический алгоритм Хаффмана имеет один существенный недостаток. Для восстановления содержимого сжатого сообщения декодер должен знать модель кодирования, которой пользовался кодер. Следовательно, длина сжатого сообщения увеличивается на размер модели кодирования, которая должна посылаться впереди данных, что может свести на нет все усилия по сжатию сообщения. Кроме того, необходимость наличия полной частотной статистики перед началом собственно кодирования требует двух проходов по сообщению: одного - для построения модели сообщения (таблицы частот и дерева Хаффмана), другого - для собственно кодирования.



Детали реализации


Главной проблемой статического алгоритма Хаффмана является запись в файл модели кодирования. В данной программе мы записываем модель кодирования таким образом: сначала идёт сам байт, а затем его количество появлений в исходном тексте(4 байта - стандартный тип int): итого 1 + 4 = 5 байт, т.е. в худшем случае - 256 * 5 = 1280 примерно 1 кб.


Результат работы программы



Используемые АТД


1)АТД пирамида.

представляет собой полное бинарное дерево. В данном случае используется в качестве очереди с приоритетами.


classMinHeap<T>where T : IComparable

{T[] A = new T[1000];N;()

{= 0;

}Swap(ref T X, ref T Y)

{Temp;= X;= Y;= Temp;

}Parent(inti)

{/ 2;

}Left(inti)

{2 * i;

}Right(inti)

{2 * i + 1;

}(inti)

{smallest;l = Left(i), r = Right(i);((l <= N) && (A[l].CompareTo(A[i]) < 0))= l;= i;((r <= N) && (A[r].CompareTo(A[smallest]) < 0))= r;(smallest != i)

{(ref A[i], ref A[smallest]);(smallest);

}

}()

{(inti = N / 2; i>= 1; i--)

MinHeapify(i);

}

//Возвращает ключ с минимальным значением

public T HeapGetMin()

{A[1];

}

// Извлекает и возвращает ключ с минимальным значением

public T HeapExtractMin()

{Min;= A[1];[1] = A[N];-;(1);Min;

}(inti, T Key)

{[i] = Key;((i> 1) && (A[Parent(i)].CompareTo(A[i]) > 0))

{(ref A[i], ref A[Parent(i)]);

i = Parent(i);

}0;

}

// Вставляет новый ключ в пирамиду

// "Key" - Ключ для вставки(T Key)

{++;(N, Key);

}

}

}


) АТД бинарное дерево.

- дерево, каждый узел которого имеет не более 2 дочерних узлов.


// Узел дерева: IComparable

{Node() { }(Object node)

{(this.Weight> ((Node)node).Weight)1;(this.Weight< ((Node)node).Weight)-1;0;

}? Char { get; set; } // Символ узла, если не null

publicint Weight { get; set; } // Вес узлаRight { get; set; } // Ссылка на правое поддеревоLeft { get; set; } // Ссылка на левое поддеревоNode()

{= null;= 0;

}Node(int weight, byte c)

{= weight;= c;

}Node(Node left, Node right, int weight)

{= left;= right;= weight;

}Node(Node left, Node right, int weight, byte? c)

{= left;= right;= weight; = c;

}

}

}

// Дерево кодирования

publicclassTree

{

// Ссылка на корень дерева

private NodeRoot;

// Таблица соответствия символу его кода

privateDictionary<byte, string> table;Create(Dictionary<byte, int> table)

{N = table.Count;<Node> heap = newMinHeap<Node>();(var t in table)

{.HeapInsert(newNode(t.Value, t.Key));

}(inti = 0; i< N - 1; ++i)

{x = heap.HeapExtractMin();y = heap.HeapExtractMin();z = newNode(y, x, x.Weight + y.Weight);.HeapInsert(z);

}(heap.HeapExtractMin());

}Tree(Node root)

{= root; = newDictionary<byte,string>();

}

// Возвращает таблицу соответствия символа его коду

publicDictionary<byte, string>Interpretate()

{(Root != null)

{(Root, "");table;

};

}

// Возвращает раскодированную последовательность

// "input" - Строка битов

publicList<byte> Recognize(string input)

{<byte> total = newList<byte>();(inti = 0; i<input.Length;)

{= Root;(true)

{(i>= input.Length) break;(curr.Char != null)

{.Add(Convert.ToByte(curr.Char));;

}

{(input[i] == '0')= curr.Left;= curr.Right;++;

}

}

}total;

}DFS(Nodenode, stringstr)

{(node.Char == null)

{(node.Left != null)(node.Left, str + "0");(node.Right != null)(node.Right, str + "1");

}

{[Convert.ToByte(node.Char)] = str.ToString();

}

}

}

}



Структура программы

кодирование информация алгоритм хаффман

Главную логику программы инкапсулируют 2 класса:

Static Haffman Compressor и Static Haffman Decompressor, которые реализуют 2 основных метода - Compress и Decompress.


// Класс, инкапсулирующий логику компрессии по алгоритму Хаффмана

publicclassStaticHaffmanCompressor

{

publicStaticHaffmanCompressor()

{

}

// Сжимает входной файл и записывает результат в выходной

// "inputFileName" - Имя входного файла для компрессии

// "outputFileName" - Имя выходного файла для компрессии

publicvoid Compress(stringinputFileName, stringoutputFileName)

{= newFileStream(inputFileName, FileMode.Open, FileAccess.Read);<byte, int>frequenceTable = newDictionary<byte, int>();<byte> input = newList<byte>();

// Чтение входного файла и формирование таблицы частот

for (inti = 0; i<fileStream.Length; i++)

{b = (byte)fileStream.ReadByte();.Add(b);(frequenceTable.ContainsKey(b))[b]++;.Add(b, 1);

}.Close();

// Запись таблицы частот в файл

fileStream = newFileStream(outputFileName, FileMode.Create, FileAccess.Write);[] byteN = Converter.convertIntToByte(frequenceTable.Count);(inti = 0; i< 4; i++).WriteByte(byteN[i]);(var pair infrequenceTable)

{[] b = Converter.convertIntToByte(pair.Value);.WriteByte(pair.Key);(inti = 0; i< 4; i++).WriteByte(b[i]);

}

// Запись в файл закодированной последовательности

Treetree = Tree.Create(frequenceTable);<byte, string>charCodes = tree.Interpretate();code = newStringBuilder("");(inti = 0; i<input.Count; i++)

{.Append(charCodes[input[i]].ToString());

}

// Запись длины последнего байта.WriteByte(Convert.ToByte(code.Length% 8));= 0;= 1;(inti = 0, j = 0; i<code.Length; i++, j = (j + 1)% 8)

{(code[i] == '1')

{+= pow;

}(j == 7)

{.WriteByte(newByte);= 1;= 0;

}

{*= 2;

}

}(code.Length% 8 != 0)

{.WriteByte(newByte);

}.Close();

}

}

}

// Класс, инкапсулирующий логику декомпрессии по алгоритму Хаффмана

publicclassStaticHaffmanDecompressor

{

publicStaticHaffmanDecompressor()

{

}

// Разжимает входной файл, и записывает результат в выходной

// "inputFileName" - Имя входного файла для декомпрессии

// "outputFileName" - Имя выходного файла для декомпрессии

publicvoid Decompress(stringinputFileName, stringoutputFileName)

{= newFileStream(inputFileName, FileMode.Open, FileAccess.Read);<byte, int>frequenceTable = newDictionary<byte, int>();

// Чтение таблицы частот из файла

byte[] byteN = newbyte[4];

for (inti = 0; i< 4; i++)[i] = (byte)fileStream.ReadByte();= Converter.convertByteToInt(byteN);key;[] pair = newbyte[4];(inti = 0; i<tableSize; i++)

{= (byte)fileStream.ReadByte();(int j = 0; j < 4; j++)[j] = (byte)fileStream.ReadByte();.Add(key, Converter.convertByteToInt(pair));

}

//Декомпрессия= Tree.Create(frequenceTable);input = newStringBuilder("");tail = (byte)fileStream.ReadByte();(inti = 0; i<fileStream.Length - 1 - 4 - 5 * tableSize; i++)

{b = (byte)fileStream.ReadByte();((i == fileStream.Length - 2) && (tail != 0))

{(int j = 0; j <= tail; j++)

{.Append((b% 2).ToString());/= 2;

}

}

{(int j = 0; j < 8; j++)

{.Append((b% 2).ToString());/= 2;

}

}

}.Close();= newFileStream(outputFileName, FileMode.Create);<byte>toFile = tree.Recognize(input.ToString());.Write(toFile.ToArray(), 0, toFile.Count);

fileOutputStream.Close();

}

}

}


Также используется вспомогательный статический класс Converterдля преобразования intв byte и обратно:


{

// Конвертирует четыре байта в целое число

// "key" - Массив из 4 байтов

// возвращает Целое число

publicstaticintconvertByteToInt(byte[] key)

{(key.Length != 4)("Неверный аргумент для метода convert ByteToInt");key[0] + key[1] * 256 + key[2] * 65536 + key[3] * 16777216;

}

// Конвертирует целое число в массив из четырёх байтов

// "key" - Целое число

// возвращает Массив 4 байтов

publicstaticbyte[] convertIntToByte(int key)

{(key < 0)("Неверный аргумент для метода convert IntToByte");key1 = key;[] b = newbyte[4];(inti = 0; i< 4; i++)

{[i] = (byte)(key1% 256);/= 256;

}

returnb;

}

}

}

Оценка эффективности


Проведя серию данных, мы получили следующие коэффициенты сжатия:


docBmpJpegМаленький файл1,2173,2781,0Средний файл1,7523,0831,0


Вывод


Из теоретических и экспериментальных данных можно сделать вывод, что степень сжатия не зависит от размера файла (Исключение - когда файл слишком маленького размера и модель кодирования сводит на нет весь результат), а зависит лишь от частот появлений тех или иных символов во входном файле. Если частота появления всех символов примерно одинакова то сжатие не будет удачным, иначе можно ожидать хорошего сжатия. Также стоит обратить внимание на файлы типа jpeg, которые не подвергаются сжатию, так как уже представляют собой результат сжатия по Хаффману.



Список литературы


1.Структуры данных и алгоритмы сжатия информации без потерь - Методическое пособие, Пантеллев Е.Р. - Иваново 2001г.

2.Алгоритмы: построение и анализ, Кормен Т., Лейзерсон Ч., Ривест Р., Штайн К. - 2е издание, Издательский дом Вильямс, 2007г.


Министерство образования и науки Российской Федерации Федеральное государственное бюджетное образовательное учреждение высшего профессионального образован

Больше работ по теме:

КОНТАКТНЫЙ EMAIL: [email protected]

Скачать реферат © 2017 | Пользовательское соглашение

Скачать      Реферат

ПРОФЕССИОНАЛЬНАЯ ПОМОЩЬ СТУДЕНТАМ