[LinuxOB] [OT] Textkomprimierung

Daniel Dombrowski daniel.dombrowski at linuxob.de
So Dez 28 23:41:02 CET 2003


On 2003.12.28 20:45, Alexander Müller wrote:
> DD> Was spricht denn dagegen, die Dateien komplett die Datenbank zu
> DD> schieben und dann so Sachen wie die MySQL-Volltextsuche zu
> verwenden?
> DD> H?tte auf jeden Fall den Vorteil, dass du die Daten nur einmal
> DD> speichern m?sstest. Und es w?re gew?hrleistet, dass du auch
> DD> Suchprozeduren verwendest, die tendenziell performanter sind als
> DD> irgendwas selbstgebautes - und fehlerfreier vermutlich auch.
> 
> Kommt nicht in Frage. Die Texte werden insgesamt sicher ueber die
> 1 GB Grenze (allein in ASCII) gehen.
> 1 GB Text zu durchforsten dauert eindeutig zu lang.

Naja, das macht ja auch eine Art Indexing. Genauere Performance wäre zu  
testen, aber das ist schon auf größere Datenmengen ausgelegt.

Details:

http://www.mysql.de/doc/de/Fulltext_Search.html

Abgesehen davon weis ich ja nicht, was du vor hast. Aber 1 GB empfinde  
ich nicht als viel. Und schon gar nicht, wenn das nur Daten sind, die  
auf der Platte liegen. Selbst wenn eine Indizierung nochmal die gleiche  
Menge brauchen würde - warum nicht?

> DD> In jedem Fall stell ich es mir aber nicht sonderlich performant
> vor,
> DD> wenn du einen komprimierten Cache erstellst und den jedes mal
> wieder
> DD> entpacken musst ... da kannst du wohl wirklich eher jedesmal alle
> DD> Dateien ?ffnen.
> 
> Nein der Cache wird nicht dekomprimiert...
> Der Suchterm wird komprimiert und mit dem Cache verglichen,
> daher die Schwierigkeit.
> Dateien oeffnen wuerde nicht gehen, da Dateitypen wie pd und psd
> moeglich sind.

Was sind denn pd und psd für Dateien?

Gruss

Daniel



Mehr Informationen über die Mailingliste linux