Náplní téhle bakalářské práce je analýza kontextových kompresních metod, jejich vlastností a možností využití. Práce se zaměřuje a podává det...
详细信息
Náplní téhle bakalářské práce je analýza kontextových kompresních metod, jejich vlastností a možností využití. Práce se zaměřuje a podává detailní přehled statistické metody PPM (metoda predikce částečné shody). Je popsán programový návrh této metody jako aj samotná implementace. Závěrem taky porovnání činnosti tohoto programu s již existujícími metodami komprimace dat.
Tato práce se zaměřuje především na vývoj softwaru pro vizualizaci několika nejpoužívanějších algoritmů bezztrátové komprese. První část práce představuje teoretick...
详细信息
Tato práce se zaměřuje především na vývoj softwaru pro vizualizaci několika nejpoužívanějších algoritmů bezztrátové komprese. První část práce představuje teoretické poznatky z oblasti bezztrátových kompresních algoritmů. Druhá část práce je věnován popisu vývoje softwaru v prostředí Matlab. Návrh se věnuje především vytvoření prostředí pro vkládání dat a jejich zakódování pomocí nejběžnějších algoritmů bezztrátové komprese, porovnání jednotlivých algoritmů vzhledem k účinnosti kódování a vizualizace průběhu jednotlivých algoritmů a jejich vlastností při samotném průběhu kódování. V závěru práce je prezentován výsledný software.
Práce zkoumá, jak se projeví účinek různých komprimačních algoritmů na obrazových datech v medicíně. Snaží se najít algoritmus nebo skupinu algoritmů, které budo...
详细信息
Práce zkoumá, jak se projeví účinek různých komprimačních algoritmů na obrazových datech v medicíně. Snaží se najít algoritmus nebo skupinu algoritmů, které budou mít největší kompresní účinek. Kromě použití klasických algoritmů je snaha využít vlastností medicínských dat (tj. že obsahují hodně podobných obrazových bodů) pro jejich lepší kompresi. Ověříme si účinnek delta kódování na výsledný kompresní poměr a na závěr uvedeme naši nejlepší nalezenou metodu.
Táto práca sa zaoberá bezstratovou kompresiou videa. Sú v nej uvedené niektoré farebné modely a konverzie medzi nimi. Ďalej sa zaoberá prediktormi a ich implementáciou. Pos...
详细信息
Táto práca sa zaoberá bezstratovou kompresiou videa. Sú v nej uvedené niektoré farebné modely a konverzie medzi nimi. Ďalej sa zaoberá prediktormi a ich implementáciou. Posledná teoretická časť obsahuje popis kontextovej kompresie a entropického kódovania s podrobnejším rozborom aritmetického kódovania. Nasleduje popis implementovaného kompresného postupu vo forme kodeku a detaily o vnútornej štruktúre. Tento kodek je potom otestovaný a porovnaný s aktuálne používanými kodekmi FFV1 a Huffyuv. Ukázalo sa, že zvýšením počtu kontextov sa zvýši kompresný pomer, avšak sa nepodarilo prekonať kodek FFV1, kodek Huffyuv bol vždy prekonaný.
Tato práce pojednává o statistických metodách komprese dat. Zabývá se návrhem kompresního postupu a jeho implementací ve formě knihovny v programovacím jazy...
详细信息
Tato práce pojednává o statistických metodách komprese dat. Zabývá se návrhem kompresního postupu a jeho implementací ve formě knihovny v programovacím jazyce C++. Věnuje se popisu a analýze jednotlivých metod. Obsahuje výsledky testů provedených na různých kompresních metodách a jejich následné vyhodnocení.
A variant of adaptive arithmetic coding is proposed, adding cryptographic features to this classical compression method. The idea is to perform the updates of the frequency tables for characters of the underlying alph...
详细信息
A variant of adaptive arithmetic coding is proposed, adding cryptographic features to this classical compression method. The idea is to perform the updates of the frequency tables for characters of the underlying alphabet selectively, according to some randomly chosen secret key K. We give empirical evidence that with reasonably chosen parameters, the compression performance is not hurt, and discuss also aspects of how to improve the security of the system being used as an encryption method. To keep the paper selfcontained, we add a short description of the arithmetic coding algorithm that is necessary to understand the details of the new suggested method. (C) 2020 Elsevier Inc. All rights reserved.
In 1994 Peter Fenwick at the University of Auckland devised an elegant mechanism for tracking the cumulative symbol frequency counts that are required for adaptive arithmetic coding. His structure spends O(log n) time...
详细信息
In 1994 Peter Fenwick at the University of Auckland devised an elegant mechanism for tracking the cumulative symbol frequency counts that are required for adaptive arithmetic coding. His structure spends O(log n) time per update when processing the sth symbol in an alphabet of n symbols. In this note we propose a small but significant alteration to this mechanism, and reduce the running time to O O(log (1 + s)) time per update. If a probability-sorted alphabet is maintained, so that symbol s in the alphabet is the sth most frequent, the cost of processing each symbol is then linear in the number of bits produced by the arithmetic coder. Copyright (C) 1999 John Wiley & Sons, Ltd.
Cieľom mojej diplomovej práce je vytvorenie programov, ktoré budú slúžiť ako podpora vo výučbe. Práca je rozdelená na dve časti - teoretickú a praktickú. V teoretickej čast...
详细信息
Cieľom mojej diplomovej práce je vytvorenie programov, ktoré budú slúžiť ako podpora vo výučbe. Práca je rozdelená na dve časti - teoretickú a praktickú. V teoretickej časti sa budem zaoberať} teóriou potrebnou k vypracovaniu tejto práce. V praktickej časti bude opísaná samotná funkcionalita vytvorených appletov
Error detection is a fundamental need in most computer networks and communication systems in order to combat the effect of noise. Error detection techniques have also been incorporated with lossless data compression a...
详细信息
Error detection is a fundamental need in most computer networks and communication systems in order to combat the effect of noise. Error detection techniques have also been incorporated with lossless data compression algorithms for transmission across communication networks. In this paper, we propose to incorporate a novel error detection scheme into a Shannon optimal lossless data compression algorithm known as Generalized Luroth Series (GLS) coding. GLS-coding is a generalization of the popular arithmetic coding which is an integral part of the JPEG2000 standard for still image compression. GLS-coding encodes the input message as a symbolic sequence on an appropriate 1D chaotic map Generalized Luroth Series (GLS) and the compressed file is obtained as the initial value by iterating backwards on the map. However, in the presence of noise, even small errors in the compressed file leads to catastrophic decoding errors owing to sensitive dependence on initial values, the hallmark of deterministic chaos. In this paper, we first show that repetition codes, the oldest and the most basic error correction and detection codes in literature, actually lie on a Cantor set with a fractal dimension of 1/n, which is also the rate of the code. Inspired by this, we incorporate error detection capability to GLS-coding by ensuring that the compressed file (initial value on the chaotic map) lies on a Cantor set. Even a 1-bit error in the initial value will throw it outside the Cantor set, which can be detected while decoding. The rate of the code can be adjusted by the fractal dimension of the Cantor set, thereby controlling the error detection performance.
The adaptive dependency source model, as described in this article, provides a simple way to benefit from the interdependency between the successive characters in a text. For most files, when compared with either the ...
详细信息
The adaptive dependency source model, as described in this article, provides a simple way to benefit from the interdependency between the successive characters in a text. For most files, when compared with either the adaptive arithmetic coding model by Witten et al., or Gallager's adaptive Huffman encoding model, the adaptive dependency model produces a 12 to 15 percent increase in compression efficiency. [ABSTRACT FROM AUTHOR]
暂无评论