Als je een plaat met JPEG comprimeert, krijg je data- en kwaliteitsverlies. Dat staat vast. Die is ook niet meer terug te krijgen. Maar gooi je iets in de ZIP, dan wordt de data ook gecomprimeerd maar die data kun je wel weer terug krijgen (dat moet ook...).
Ik denk dus dat het zó zit: JPEG comprimeert de kleuren (-rijen) d.m.v. bepaalde algoritmes, en als de 'formules' die de kleuren inhouden worden 'berekend' krijg je het plaatje terug - met wat fuzzyness, omdat je niet alle bytes weer zoals vanouds hebt. Maar ZIP comprimeert door in de bytes patronen e.d. te herkennen, die dus compacter kunnen en met uitpakken weer zoals voorheen worden gemaakt.
Waarom zou het dan niet mogelijk zijn om een nieuwe compressie voor op internet en zo te maken die relatief grote platen met relatief goede kwaliteit comprimeren d.m.v. een soort ZIP-compressie, die in die vorm op de servers worden gezet, in die vorm worden gedownload en middels de browser worden uitgepakt, in de cache worden gegooid (of in het werkgeheugen) en goed worden weergegeven in de browser? Op die manier heb je dus platen van goede kwaliteit die toch klein zijn qua bytes.
<edit> Hierbij ga ik ervanuit dat het unzippen van de platen niet al te lang duurt (héél snel gaat dus), zodat de tijd, die door de verkleining van de platen gespaard werd, niet weer wordt ingenomen door de tijd, die het unzippen inneemt...
Is dit een goed idee of snap ik er niks van?
<edit2> Het valt me op dat een JPG-file, ook al heeft die niet veel compressie en heeft dus een aardige kwaliteit, met maximale ZIP-compressie amper kleiner wordt. Dus JPG comprimeert met data-loss maar ZIP zonder? Waarom gebruiken we dan niet ZIP op het web?
Laatst gewijzigd op 25-06-2002 om 15:35.
|